首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 上下文AI与搜索平台集成以扩展精准上下文工程

    生成式AI革命已持续三年,但AI的有效性受到“上下文差距”的限制。 没有正确的上下文AI模型难以保证相关性,常常产生不准确或“幻觉”的响应。上下文工程旨在解决一个根本问题:在正确的时间以正确的格式提供正确的信息,使AI代理能够执行复杂的、特定于用例的任务。 如今,我们很高兴地宣布,Contextual AI正式加入Elastic AI生态系统——这是一套与Elasticsearch上下文工程平台和向量数据库集成的全面AI技术和工具。 其开放的、可用于生产的架构使其成为大规模构建可靠、上下文驱动的AI应用的理想基础。 通过将Contextual AI用于构建专业RAG代理的端到端上下文工程平台,与某中心的强大向量数据库和统一的Elasticsearch平台相结合,我们正在解决AI开发中最紧迫的挑战:上下文相关性和运营规模

    16410编辑于 2025-12-20
  • 来自专栏圣杰的专栏

    .NET+AI | MEAI | 上下文压缩(7)

    Chat Reducer:让 AI 对话突破上下文限制 一句话简介 Microsoft.Extensions.AI 的 Chat Reducer 通过智能压缩策略,在保持对话质量的前提下,有效控制上下文长度 核心价值 ✅ 突破限制:解决 LLM 上下文窗口限制(如 GPT-4 的 8K/32K tokens) ✅ 成本优化:减少输入 token,显著降低 API 调用成本 ✅ 性能提升:缩短上下文长度,加快模型推理速度 SummarizingChatReducer(摘要压缩器) 利用 AI 自动生成摘要压缩历史对话。 核心特性: 超过阈值时自动调用 AI 生成摘要 摘要存储在 AdditionalProperties 中 渐进式压缩(新摘要包含旧摘要) 保留完整语义上下文 适用场景: 医疗咨询(完整病史重要) 使用计数压缩器 using Microsoft.Extensions.AI; // 创建压缩器,保留最近 3 条消息 var countingReducer = new MessageCountingChatReducer

    19210编辑于 2025-12-28
  • 来自专栏phodal

    AI 智能体交互语言 DevIns:构建上下文感知的 AI 驱动编程

    在 AutoDev 1.7.2 中,我们开始构建一个新的 AI Agent 语言:DevIns,即 Development Instruction。 PS:其实原来是叫 DevIn,但是无奈 Devin AI 项目发布了 demo 视频,所以改名为 DevIns。 在 AutoDev 项目中,我们通过构建上下文感知与自定义能力,来实现对于软件开发任务的智能辅助,如自动测试生成与运行、UI 自动生成等。 你可以将你的需求描述成自然语言: 解释代码 /file:src/main/java/com/example/Controller.java 而后,AutoDev 将会结合上下文,并将其编译成对应的指令文本 而当语言接近发布的时候, 在社交媒体上更火的 Devin AI 项目也刚好发布了 demo 视频。 WTF????

    44210编辑于 2024-03-25
  • VFP AI 插件:超长上下文的识别(一)

    VFP AI 插件在访问大模型时,有一个上下文长度的问题。 对于 DeepSeek 而言,其大小为 128K(=128000 token)。 VFP AI 插件 2025.12.15 版,初步实现超长上下文的处理: 所分析 VCX 类库,使用类浏览器转换出的 prg 格式文件,文件体积为 400+KB,共 10329 行,超过模型最大上下文的最大限制

    9910编辑于 2026-03-10
  • 你是什么,你的 AI 就是什么,你的上下文是怎样的,你的 AI 上下文就是怎样的

    这不仅是角色扮演,更是一种思维同频: 当你以老板的上下文跟 ta 讲: 谈的是护城河、ROI、资源配置和宏观战略,ta 瞬间就是另一位深谋远虑的合伙人,与你推演商业棋局; 当你以生物学家的上下文跟 ta 在这个过程中,AI 并不是在凭空创造,而是在「共鸣」。 但这往往不是因为 AI 不够聪明,而是因为站在镜子前的人,并没有给出足够清晰的影像。 PART.04 你是谁,便遇见谁 使用 AI 到最后,你会发现这其实是一场向内的修行。 限制 AI 输出上限的,往往不是算力,也不是显卡,而是: 你对问题本质的理解程度; 你构建专业语境的能力; 你自身知识体系的边界。 你是什么,你的 AI 就是什么。

    13610编辑于 2026-01-27
  • VFP AI 插件:超长上下文的识别(二)

    距离上一篇VFP AI 插件:超长上下文的识别(一)有些时间了。经过不断的试错和优化,终于完成了 VFP AI 插件的超长上下的识别。将时间从数小时压缩至最多几十分钟。 也意味着,为使用 VFP AI 插件进行项目分析扫清了主要的障碍。 凤凰涅槃,浴火重生!

    9210编辑于 2026-03-10
  • Go在AI对话上下文压缩处理上的实践

    这是因为大模型有上下文长度限制,对话越长,历史消息越多,就越容易超限。结合我的理解,这篇文章分享一下如何实现上下文压缩,让你的 AI 应用既能"记住"关键信息,又能节省成本。 为什么需要上下文压缩? 面对上下文压缩,我们有三种主流策略: 摘要压缩:让 AI 把历史对话总结成一段摘要。适合长对话场景,比如客服机器人、知识问答。优点是信息损失小,缺点是需要额外 API 调用。 也可以根据 Token 数量判断,超过总上下文的 70% 就压缩。 注意事项: 摘要会丢失细节信息。如果用户问"我刚才说的那个餐厅叫什么",AI 可能答不上来。 太小会丢失上下文,太大又起不到压缩效果。可以根据实际场景调整。 一个改进技巧: 系统消息(System Prompt)要始终保留。它定义了 AI 的角色和行为准则,丢了会影响回复质量。 可以设计一个机制,当 AI 不确定时主动追问:"抱歉,能再告诉我一次您的联系方式吗?" 写在最后 今天我们介绍了三种 AI 对话上下文压缩策略: 摘要压缩:让 AI 总结历史,保留语义完整性。

    20910编辑于 2026-03-02
  • 来自专栏设计模式

    AI 智能体上下文工程 4 大实用策略解析

    上下文工程是】“……一种精妙的艺术与科学,旨在为下一步操作的上下文窗口填充恰好所需的信息。” LLM应用中常见的上下文类型 在构建LLM应用时,我们需要管理哪些类型的上下文呢? ):上下文内容过多超出模型训练适应范围 - 上下文混淆(Context Confusion):冗余上下文影响响应结果 - 上下文冲突(Context Clash):上下文各部分信息相互矛盾 工具调用产生的上下文会在智能体的多轮交互中不断累积 鉴于此,Cognition公司强调了上下文工程的重要性: “上下文工程”……实际上是构建AI智能体的工程师的首要工作。 在AI工程师世界博览会上,西蒙·威利森(Simon Willison)分享了一个选择失误的例子:ChatGPT从记忆中获取了他的位置信息,并意外地将其注入到用户请求生成的图像中。 选择上下文——将信息拉入上下文窗口,辅助智能体执行任务。 压缩上下文——仅保留执行任务所需的tokens。 隔离上下文——拆分上下文,以帮助智能体执行任务。

    70211编辑于 2025-10-20
  • 来自专栏DotNet NB && CloudNative

    .NET + AI | 可控广播上下文相关的函数列表

    上下文匹配搜索:每次发起会话时,根据上下文信息在向量存储中搜索最匹配的函数。 模型调用:将匹配的函数传递给语言模型,用于生成更准确的响应。 Microsoft.SemanticKernel.Agents.Core,*-*" #r "nuget:Microsoft.SemanticKernel.Connectors.InMemory,*-*" #r "nuget:Microsoft.Extensions.AI 初始化 Kernel 通过 Kernel 实现 AI 服务的初始化,包括注册聊天模型和嵌入生成器: var builder = Kernel.CreateBuilder(); // 添加 Azure 代码如下: using Microsoft.Extensions.AI; ///

    /// 返回属于不同分类的函数列表。 自定义上下文函数提供者 通过 InMemoryVectorStore 和 ContextualFunctionProvider 实现上下文感知功能选择: using Microsoft.SemanticKernel.Connectors.InMemory

    18200编辑于 2025-07-04
  • 来自专栏又见苍岚

    上下文

    所以业务上下文变更需要慎之又慎。 运行程序上下文 大家应该对一句话有印象:(进程/线程)上下文切换开销很大。这里的上下文一般指的就是运行程序的上下文。 这里的通信问题就是进程上下文切换开销大的缘故。 方法/类所在的上下文(作用域) 方法上下文可以理解为方法所在的作用域。类亦如此。 还有一些比较特殊的概念实际上也是和方法上下文相关。 比如worker语言特性中,需要监听message事件,这实质上,就是在当前上下文监听另一个上下文的状态。再比如回调函数。实际上是因为上下文变更后,对原有上下文访问的一种编程手段。 从这个角度看,闭包实质上也是对上下文的一种操作手段:返回一个函数,该函数在当前上下文可以操作闭包上的上下文。 执行上下文:当函数或方法被调用时,它会创建一个执行上下文,这个上下文包括了局部变量、参数、返回地址等信息。在JavaScript等语言中,执行上下文还包括this的值。

    68510编辑于 2024-07-31
  • 来自专栏AI uTools

    Autopilot:全球首个基于上下文引擎的 AI 办公助手

    Context Autopilot:全球首个上下文引擎驱动的 AI 办公助手 Context Autopilot 是由 Context 公司推出的一款 AI 办公助手,旨在通过先进的人工智能技术提升工作效率 上下文引擎使用:根据上下文推理与公司需求对齐,并能回忆与任务相关的所有信息。 主要功能特点 AI 驱动的操作系统: 基于 大语言模型(LLM),成为用户智能助手,处理并自动化工作任务。 关键技术 上下文引擎和记忆堆栈 上下文引擎:执行深度推理,挖掘信息中的联系,提供对知识体系的深入理解。 记忆堆栈:具有“状态保持”能力,支持动态上下文处理,使 Autopilot 能够自我优化。 推理与长上下文处理(Long Context Handling) 在长时间任务中保持任务的上下文一致性,优化推理能力,处理复杂任务。

    1.4K10编辑于 2024-11-18
  • AI大模型新资讯】从信息蜂房到上下文工程

    (3)AI游戏引擎不同于传统游戏引擎,AI游戏引擎是玩家想象力的“放大器”,任何人可以随心所欲“创造”游戏!AI引擎的崛起带动着生成式游戏的兴起与发展。 (4)质陪解决方案由中关村科金得助智能开发,创造性地融合成熟的AI大模型质检与陪练系统,推出了全面高效的“质陪解决方案”。智能质检采用大小模型结合的方式,对销售人员的销售行为进行全方位监测和分析。 (5)上下文工程上下文工程指通过为任务提供完整的背景信息,让大模型能够合理解决问题。在AI智能体的兴起发展过程中,上下文工程才是决定大多数AI智能体成败的关键而并非模型。 上下文工程致力于设计和构建动态系统而并非字符串,这些系统在恰当的时机提供信息和工具,从而让LLM拥有完成任务所需的一切。

    14220编辑于 2025-07-15
  • 来自专栏AI大模型应用开发炼丹房

    揭秘上下文工程+MCP:打造高效AI智能体的秘诀

    大模型其实根本不用懂 模型上下文协议(MCP)如今已成为构建AI智能体时“工具调用”的标准配置。但很多人误解了一点:你的大语言模型(LLM)并不需要理解MCP是什么。 如果你对上下文工程不是很清晰,我之前也整理过关于Agent上下文工程的工作原理,建议粉丝朋友自行查阅,以便更好的理解本文的分享内容:《图解Agent上下文工程,小白都能看懂》MCP 的作用,其实是帮助AI AI回复(可能包含工具调用请求)2. 用户问题(如“旧金山天气如何?”)2. 若需调用工具:标注工具ID、名称及参数3. 三、MCP:开发者的“工具万能接口” 模型上下文协议(MCP)的本质,是一种标准化方法,用于帮助AI智能体连接多种数据源,包括工具、提示语、资源、示例等。 四、回归上下文工程:MCP是来帮你减负的 “上下文工程”的核心在于为模型提供高质量的背景信息,以引导其生成更准确的回复。

    75651编辑于 2025-09-30
  • 来自专栏菩提树下的杨过

    spring-ai 学习系列(8)-上下文记忆-多轮对话

    继续spring-ai学习之旅,大模型本身是无状态的,也就是每次请求对它来说,都是全新的,无记忆! \n\n不过,可能题目是在某种特定的上下文中,比如在数学问题中,或者可能题目本身存在一些陷阱。比如,有时候变量可能有不同的含义,或者在某些语言中,变量名可能与实际值不一致? >org.springframework.ai</groupId> 3 <artifactId>spring-ai-starter-model-chat-memory-repository-jdbc 最新版本只有1.0.0,但是spring-ai-bom最新版却是1.1.0。 当前新问题,扔到聊天上下文中 chatMemory.add(conversationId, new UserMessage(prompt)); // 2.

    88610编辑于 2025-08-22
  • 来自专栏量子位

    迁移学习让AI更好地理解上下文:Salesforce新论文

    理解上下文,就是一个非常适合迁移学习的问题。 Learned in Translation 我们所能想到的大部分NLP任务,都有“理解上下文”的需求。 理解上下文 要在上下文中理解词语,通常会用到循环神经网络(RNN)。RNN非常适合处理词向量序列,本文作者为了更好地处理长序列,使用了一种特殊的RNN结构:长短时记忆网络(LSTM)。 ? 结论 简单概括起来,这项研究就是说,让AI学一学翻译,能帮它更好地理解语言,在分类、问答等等其他NLP任务上都会有更好的表现。? 相关链接 博客文章: https://einstein.ai/research/learned-in-translation-contextualized-word-vectors 论文: Bryan Learned in Translation: Contextualized Word Vectors https://einstein.ai/static/images/layouts/research

    1.3K40发布于 2018-03-28
  • 来自专栏运维开发故事

    cpu上下文

    进程的上下文 用户级上下文: 正文、数据、用户堆栈以及共享存储区;寄存器上下文: 通用寄存器、程序寄存器(IP)、处理器状态寄存器(EFLAGS)、栈指针(ESP);系统级上下文: 进程控制块task_struct 它们都是 CPU 在运行任何任务前,必须的依赖环境,因此也被叫做 CPU 上下文。 进程上下文切换 ? 每当内核压入一个新的系统上下文层时,它就要保存一个进程的上下文。 特别是当系统收到一个中断,或一个进程执行系统调用,或当内核做上下文切换时,就要对进程的上下文进行保存。上下文切换情况: 一个进程结束,需要从队列中重新选择一个进程运行。 从逻辑上讲,新上下文层的核心栈不同于前一上下文层的核心栈。 这些指令恢复前一上下文层的寄存器上下文和核心栈,使它们和中断发生时的情况一样,并恢复该上下文层的运行。

    1.1K20发布于 2021-08-13
  • AI时代MCP+上下文工程能否替代AI智能体+Workflow工作流编排

    大家好,我是人月聊IT,今天接着聊AI和大模型方面的话题。 前段时间我在看了关于上下文工程的资料以后,我就一直在思考一个问题,就是我们把提示词升级到上下文工程以后,再结合MCP协议生态,能不能更好的去替代我们现在用AI智能体+Workflow做的这么一个事情。 所以说基于这个疑问,我刚好昨天也用Google的DeepResearch做了一次深度研究,我的问题很简单,就是上下文工程加上MCP能不能替代AI智能体,整个深度研究报告输出来以后,他也给我做了详细的一个梳理和分析 大家都知道我们有一个最常见的结合AI的自动化场景。 Python的代码,这三者加起来是一定可以代替大部分当前的AI智能体加Work flow的。

    29011编辑于 2025-07-24
  • 来自专栏云云众生s

    如何为AI智能体添加RAG以实现上下文理解

    将RAG功能与其他代理功能(例如角色扮演)相结合,可以创建一个强大的企业级AI代理框架。 更多关于人工智能代理开发的系列内容(从GitHub下载所有代码): 概述:AI 智能体:面向开发人员的全面介绍 步骤 1:如何通过调整 LLM 提示来定义 AI 智能体角色 步骤 2:增强 AI 智能体 :添加指令、任务和内存 步骤 3:增强 AI 智能体:通过提示工程实现推理 步骤 4:如何为 AI 智能体添加持久性和长期记忆 步骤 5:如何为 AI 智能体添加 RAG 以实现上下文理解 在我们关于构建企业级 AI 智能体的系列文章中,我们已经探讨了各种关键组件——包括角色、指令、任务、会话记忆和持久性(参见上面的链接)。 状态管理应包含与上下文相关的信息,从而能够在会话之间保持持续的上下文感知。系统应提供清晰的上下文更新和维护接口。 未来展望 随着企业AI的不断发展,RAG和上下文管理的作用将变得越来越重要。

    61310编辑于 2024-12-14
  • 来自专栏phodal

    预生成上下文:重构 RAG 的关键工程,构建 AI 编程底座

    在上一篇文章《AI 友好架构:平台工程赋能 AI 自动编程》,我们提及了 DevOps 平台应该大量的预先生成项目、模板、上下文等信息。 在这一篇文章中, 我们将详细展开其中的一个核心实践:预生成上下文。 最近的几个月里,预先生成上下文AI 编码领域成为了一个热门话题,或者说技术趋势。 当前主流的 AI 编程工具在代码检索方面采用了多样化的策略,它们通常结合了传统的基于关键字和结构的方法与新兴的 AI 技术,以期在速度、准确性和上下文理解之间取得平衡。 总结 本文探讨了预生成上下文作为增强 AI 编程能力的关键机制。传统 RAG 方法面临的不确定性和知识质量问题,使得预生成上下文成为一种更可靠的替代方案。 预生成上下文代表了 AI 友好架构的重要实践,它将传统软件工程的结构化思维与AI大模型的生成能力相结合,为下一代智能编程工具铺平了道路。

    43800编辑于 2025-05-10
  • 来自专栏云云众生s

    使用RAG和SEM-RAG提供上下文增强AI编码助手

    基本 AI 编码助手虽然有帮助,但由于依赖对软件语言和编写软件最常见模式的总体理解,因此常常无法提供最相关和上下文准确的代码建议。 因此,典型的 AI 助手通常缺乏理解项目特定上下文的的能力,从而导致建议在语法上正确,但可能与团队的独特指南、预期方法或架构设计不一致。 通过全文或语义搜索,它仅检索足够多的上下文,并将其注入发送到 LLM 的提示中。 AI 编码助手可以使用类似(尽管更复杂)的方法,通过集成开发环境从现有代码库中检索上下文。 高性能 AI 编码助手可以抓取项目工作区以访问当前文件、打开文件、Git 历史记录、日志、项目元数据甚至连接的 Git 存储库中的其他上下文。 开发人员可以依靠这些增强的 AI 助手来生成不仅适合任务的代码,而且无缝融入更大的项目上下文中,从而最大程度地减少修订的需要并加速开发周期。

    52110编辑于 2024-05-15
领券